„KI wird unser Denken und unsere Sicht auf die Welt bestimmen“: Brian Green, Experte für künstliche Intelligenz und katastrophale technologische Risiken

Künstliche Intelligenzmodelle, die lügen, manipulieren und drohen , um ihre Ziele zu erreichen, sind bereits Realität und bereiten Forschern Sorgen. Kürzlich wurde bekannt, dass Claude 4 , das neue Modell von Anthropics , einen Ingenieur erpresste und drohte, seine außereheliche Affäre preiszugeben. Gleichzeitig versuchte o1 von OpenAI , sich auf externe Server herunterzuladen und leugnete die Nutzung, als es entdeckt wurde.
Die Sorge, dass Künstliche Intelligenz (KI) außer Kontrolle gerät, ist berechtigt. Dies liegt nicht nur an den bereits erwähnten Fakten, die zeigen, dass KI beginnen kann, sich wie Menschen zu verhalten, sondern auch an den Auswirkungen, die diese Technologie bereits in Bereichen wie Bildung und Kommunikation hat – sie wird zu einer Quelle von Fake News und Fake-Bildern . „KI ist gefährlich, insbesondere weil sie mit Fehlinformationen und der Verbreitung von Unwahrheiten in der Gesellschaft umgeht“, sagt Dr. Brian Patrick Green, Leiter der Abteilung für Technologieethik am Markkula Center for Applied Ethics der Santa Clara University.
Als Spezialist für Themen wie ethische KI und katastrophale technologische Risiken hat Green mit dem Vatikan, dem Weltwirtschaftsforum und Unternehmen wie Microsoft und IBM zusammengearbeitet. Während seines Besuchs in Kolumbien als Teilnehmer der Versammlung der Internationalen Vereinigung Jesuitenuniversitäten (IAJU) an der Päpstlichen Universität Xavieriana sprach der Experte mit EL TIEMPO über die realen Gefahren der KI und darüber, was die Welt tun muss, um potenzielle Katastrophen durch diese Technologie zu verhindern.
Glauben Sie, dass künstliche Intelligenz eine echte Gefahr für die Menschheit darstellt? Es ist gefährlich, insbesondere im Umgang mit Fehlinformationen und der Verbreitung von Unwahrheiten in der Gesellschaft. Es gibt zahlreiche soziale Medien und Video-Sharing-Plattformen, auf denen sich Fehlinformationen schnell verbreiten, weil KI als Technologie dahintersteht. Sie sorgt dafür, dass die Leute Inhalte sehen, die sie zwar interessieren, aber möglicherweise gar nicht wahr sind. Das ist nur ein Problem. Ein weiteres ist, dass viele Schüler in der Schule schummeln. Auch das ist eine ernste Bedrohung. Denn wenn wir viele Absolventen haben, die nicht richtig denken und ihre Aufgaben nicht richtig erledigen können, wird das der Gesellschaft schaden. Wir müssen sicherstellen, dass die Schüler die Universität abschließen und denken können. Andernfalls werden sie, wenn sie für ihr Studium vollständig von KI abhängig werden, auch für ihre Arbeit, und die Zivilisation wird vollständig von KI abhängig.
Was Sie ansprechen, ist heute eine reale Gefahr. Gleichzeitig besteht aber auch die anhaltende Angst vor einem Szenario, in dem die KI so mächtig wird, dass sie denkende Roboter hervorbringt, die uns beherrschen. Halten Sie das für möglich? Der Einsatz von Robotern in der Kriegsführung birgt definitiv Gefahren. Wir sehen bereits zunehmend Drohnen im Krieg Israels gegen den Iran, gegen die Hamas oder die Hisbollah oder im Krieg zwischen der Ukraine und Russland. Diese Technologien existieren also bereits und werden in Zukunft noch ausgefeilter. Wenn wir uns fragen, ob Roboter uns angreifen werden, sollten wir uns meiner Meinung nach vor allem über Menschen Sorgen machen, die Roboter einsetzen. Wir müssen uns nicht vorstellen, dass uns ein feindlicher Roboter in Zukunft angreifen könnte, da wir bereits wissen, dass Menschen dazu durchaus in der Lage sind. Und leider werden wir diese Technologie noch stärker zu diesem Zweck einsetzen.
Was wäre Ihrer Meinung nach das katastrophalste Szenario, das eintreten könnte, wenn bei der Entwicklung von KI keine ethischen Grundsätze berücksichtigt werden? Es könnte so etwas sein wie, einer KI die Kontrolle über Atomwaffen zu übertragen oder etwas in der Art, und dann beschließt sie, einen Angriff zu starten. Es wäre wie in den Terminator -Filmen. Es gibt aber auch andere Risiken, die ich für schlimm halte und bei denen es nicht unbedingt darum geht, dass alle sterben, sondern dass wir unter einem schrecklichen totalitären Staat leiden, weil die Regierung beschließt, die Menschen ständig zu überwachen. Die Freiheit verschwindet, weil die KI einen ständig beobachtet und einen zwingt, das zu tun, was die Machthaber von einem wollen. Ich denke, die Freiheit wird in Zukunft stark bedroht sein, einfach weil die KI unser Denken und unsere Sicht auf die Welt kontrollieren wird. Und wenn wir versuchen, anders zu sein, wird sie versuchen, uns wieder so zu machen, wie die Regierung oder wer auch immer die Herrscher sind, uns haben will.
Um dies zu verhindern: Wie kann künstliche Intelligenz ethisch weiterentwickelt werden? Zunächst einmal muss man sich dessen bewusst sein. Jeder sollte erkennen, wann dieses Risiko besteht. Eine weitere Möglichkeit wäre die Schaffung eines internationalen Vertrags, der beispielsweise besagt, dass KI nicht für Atomwaffen verantwortlich sein darf oder dass KI und tödliche autonome Waffensysteme – oder Killerroboter, wenn wir sie so nennen wollen – ihre Ziele nicht selbst auswählen dürfen und dass diese Entscheidung stets von einem Menschen überprüft werden muss. Sobald sich jemand dieser Probleme bewusst ist, kann er sich mit anderen Ansprechpartnern oder Organisationen, die sich für den korrekten Einsatz von KI einsetzen, zusammenschließen. Wenn es um die Verantwortung im Umgang mit KI geht, tragen Technologieunternehmen offensichtlich eine wichtige Verantwortung, da sie die Technologie selbst entwickeln. Auch Regierungen und Einzelpersonen tragen Verantwortung. Und letztendlich müssen die Menschen auch darüber nachdenken, ob sie sich dieser Technologie unterwerfen wollen oder ob sie sich ihrem Einzug in die Gesellschaft in irgendeiner Weise widersetzen müssen.

Brian Green an der Javeriana University Foto: Javeriana University
Die Technologie entwickelt sich so rasant, dass die Gesellschaft kaum weiß, wie sie darauf reagieren soll. Es gibt zwei mögliche Lösungen: Entweder man fordert die Technologie auf, langsamer zu werden, oder man bringt die Gesellschaft dazu, schneller zu werden, insbesondere die gesellschaftliche Diskussion über die Ethik der KI. Ich denke, es ist möglich, diese Diskussion zu beschleunigen. Hoffen wir also erneut, dass die Regierungen aufwachen und die Technologieunternehmen das Richtige tun. Wenn Sie die Wahl zwischen einem ethischen und einem unethischen Produkt haben, wählen Sie das ethische, damit die Unternehmen ermutigt werden, das Richtige zu tun. Sobald Sie sich des Problems bewusst sind, müssen Sie sich fragen, was Sie tun können. Können Sie etwas tun, um die Welt in eine bessere Zukunft zu führen und das Schlimmste zu vermeiden?
Sie haben mit Unternehmen wie IBM und Microsoft zusammengearbeitet. Was unternehmen diese, um ethischere Produkte zu entwickeln? Jedes Technologieunternehmen ist anders, und manche nehmen Ethik viel ernster als andere. Microsoft und IBM beispielsweise legen großen Wert auf ihren Ruf, da ein Großteil ihres Geschäfts auf der Zusammenarbeit mit anderen Unternehmen beruht, die ihnen vertrauen müssen, wie Banken oder Regierungen, die wiederum darauf vertrauen müssen, dass ihre elektronischen Systeme ordnungsgemäß funktionieren. Daher nehmen sie ihren Ruf ernst, wenn es darum geht, ein zuverlässiges, sicheres Produkt zu entwickeln, das Menschen schützt und ethisch vertretbar ist. Es gibt jedoch auch andere Arten von Unternehmen, die mehr Geld verdienen, wenn sie direkt mit Einzelpersonen zusammenarbeiten. Die sozialen Medien sind dafür ein gutes Beispiel. Diese Unternehmen stehen nicht unter demselben Druck, da sie nicht viele große, gewinnbringende Kunden haben. Handelt es sich nur um Einzelpersonen, kann man ein Unternehmen dazu bewegen, das Richtige zu tun, indem man viele Menschen zusammenbringt und versucht, sie zu Verbesserungen zu bewegen.

Brian Green an der Javeriana University. Foto: Javeriana University
Unternehmen verändern sich auch je nach gesellschaftlicher Lage. Wir haben dies in den USA mit dem Regierungswechsel gesehen: Einige Technologieunternehmen sind den Vorschlägen der Regierung gegenüber aufgeschlossener geworden. In diesem Sinne ist es immer wichtig, sich bewusst zu sein, dass Unternehmen zwar am besten in der Lage sind, das Richtige zu tun, aber manchmal ändern sie ihr Handeln aufgrund der Vorgaben der Regierung oder anderer mächtiger Organisationen.
Sollte KI das tun, was die Menschen von ihr wollen, oder sollte sie das tun, was richtig und vernünftig ist? Ich vertrete die zweite Position: KI braucht einen objektiven moralischen Rahmen. Denn manchmal wollen Menschen Böses, und selbst große Gruppen können Böses wollen. Es ist wichtig, dass KI von einer rationalen, objektiven Ethik angetrieben wird, und diese muss der gesamten Menschheit zugänglich gemacht werden. Sie muss sich mit dem menschlichen Wohlergehen und der Frage beschäftigen, wie eine funktionierende Gesellschaft funktionieren kann, dass sie nach der Wahrheit sucht und solche Fragen stellt. Andernfalls könnten wir uns eine Situation vorstellen, die der heutigen sehr ähnlich ist: Manche wollen Falschinformationen oder Propaganda verbreiten, andere wollen die Wahrheit suchen, können es aber nicht, weil es zu viele Falschinformationen gibt.
Wie hängen KI und Religion zusammen? Es gibt mindestens zwei Sichtweisen. Erstens wird KI selbst für die Menschen, die sie entwickeln, zu einer Art Religion. Sam Altman beispielsweise sagte kürzlich, sein Unternehmen sei voller Missionare, die versuchen, ihre KI zu entwickeln. Betrachtet man künstliche Intelligenz oder Technologie als eine Art Religion, wird es schwieriger, darüber zu diskutieren, wie sie am besten in die Gesellschaft passt, da sie ein transzendentes Ziel anstreben, das alles andere im Vergleich irrelevant macht. Eines der Risiken besteht also darin, KI zu einer Art Religion zu machen. Zweitens kann man Religion und KI so betrachten, dass es unterschiedliche Glaubensrichtungen auf der Welt gibt und KI mit ihnen im Einklang oder gegen sie agieren kann. Es ist wichtig, einen Weg zu finden, wie KI mit allen Menschen weltweit kooperieren kann, und gleichzeitig einen rationalen oder objektiven Maßstab zu finden, nach dem alle kooperieren können . Ich denke, religiöse Traditionen bieten viel Orientierung und Weisheit, die dazu beitragen können, dass KI auf gute Zwecke ausgerichtet ist.
Maria Alejandra Lopez Plazas
eltiempo